”nlp RNN 机器翻译 attention“ 的搜索结果

     在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更具并行性,需要的训练时间明显减少。我们的模型在2014年WMT英德翻译任务中达到28.4 BLEU,比现有的最佳结果(包括集成部分)提高了2个BLEU以上。在WMT...

     首先简单回顾一下之前说的机器翻译模型,一般的机器翻译模型都由encoder与一个decoder组成,模型图如下: 注意力模型Attention 如果考虑普通的encoder-decoder模型,我们将会遇到这样的问题,即decoder只接受...

     原文地址:http://blog.csdn.net/young_gy/article/details/73412285#优化seq2seq语言模型传统的语言模型基于RNN的语言模型机器翻译基于统计的机器翻译架构基于RNN的seq2seq架构seq2seq结构优化seq2...

     神经机器翻译NMT 神经机器翻译的架构 神经机器翻译的青铜时代 现代神经机器翻译的序列模型 RNN Encoder Decoder:循环语言模型 机器翻译的发展 神经机器翻译的四大优势 统计/神经机器翻译 神经机器翻译主要...

     本次NMT task为英文翻译为中文, 参考指标为BLEU(暂定). 实验报告(pdf) 源码; tensorboard日志文件 test2数据集结果(格式应和test1中文数据集相同). 实验报告至少应该包括: 预处理过程, 模型结构, 超参数配置, 评估...

10  
9  
8  
7  
6  
5  
4  
3  
2  
1